协作机器学习涉及来自多方数据的培训模型,但必须激励他们的参与。现有的数据评估方法相当价值并根据共享数据或模型参数奖励每个方,但忽略了所涉及的隐私风险。为了解决这个问题,我们将差异隐私(DP)作为激励。双方可以相应地选择其所需的DP保证并驱逐其足够的统计量。介体通过它引起的模型参数的贝叶斯惊喜对扰动的SS值进行了值。由于我们的估值职能执行了隐私评估权衡权衡,因此当事方被阻止选择过多的DP保证,以减少大联盟模型的效用。最后,调解员会以模型参数的不同后验样本奖励各方。这样的奖励仍然满足现有的激励措施,例如公平,但还保留了DP和与大联盟后部相似的高度相似之处。我们从经验上证明了我们方法对合成和现实数据集的有效性和实用性。
主要关键词
![arxiv:2404.01676v1 [cs.lg] 2024年4月2日PDF文件第1页](/bimg/0/08219231b12e429ae1617803d5b5aaa083848124.webp)
![arxiv:2404.01676v1 [cs.lg] 2024年4月2日PDF文件第2页](/bimg/9/96594ba48371728aebeafceeee657230339c0531.webp)
![arxiv:2404.01676v1 [cs.lg] 2024年4月2日PDF文件第3页](/bimg/9/95f95f082faa03ec633a289159d52f23025e72eb.webp)
![arxiv:2404.01676v1 [cs.lg] 2024年4月2日PDF文件第4页](/bimg/7/75ea3fbedffce9cff7cbef900330a464fa7fca91.webp)
![arxiv:2404.01676v1 [cs.lg] 2024年4月2日PDF文件第5页](/bimg/9/948413fca95f63086028c679a8a8a8a0b88b5bf4.webp)
